Xác suất là gì? Các công bố khoa học về Xác suất

Xác suất là một khái niệm trong toán học và thống kê, thường được sử dụng để đo lường khả năng xảy ra của một sự kiện. Nó đo lường mức độ chắc chắn hoặc không c...

Xác suất là một khái niệm trong toán học và thống kê, thường được sử dụng để đo lường khả năng xảy ra của một sự kiện. Nó đo lường mức độ chắc chắn hoặc không chắc chắn của một sự kiện. Xác suất được đưa ra dưới dạng một số từ 0 đến 1, với 0 đại diện cho khả năng không xảy ra sự kiện và 1 đại diện cho khả năng xảy ra sự kiện hoàn toàn chắc chắn.
Xác suất là một phần tử trong lý thuyết xác suất, mà là một phần của toán học đại số, giúp đo lường mức độ chắc chắn hoặc không chắc chắn của các sự kiện. Nó được sử dụng để quantize, hoặc biểu thị, mức độ tỉ lệ của một sự kiện xảy ra so với toàn bộ các khả năng có thể xảy ra.

Công thức xác suất chính thức P(E) cho một sự kiện E được đưa ra bởi tỷ lệ giữa số lần E xảy ra và tổng số khả năng xảy ra trong các thử nghiệm. Nó được tính theo công thức:

P(E) = (số lượng trường hợp thuận lợi) / (tổng số trường hợp có thể xảy ra)

Trong đó, số lượng trường hợp thuận lợi là số lần mà sự kiện E xảy ra trong khi tổng số trường hợp có thể xảy ra là tổng của tất cả các kết quả có thể xảy ra.

Một số thuật ngữ quan trọng trong lý thuyết xác suất bao gồm:
- Sự kiện: Một sự kiện là kết quả của một thử nghiệm cụ thể.
- Không gian mẫu: Tập hợp tất cả các kết quả có thể xảy ra trong một thử nghiệm.
- Xác suất đồng nhất: Khi tất cả các kết quả có cùng xác suất xảy ra.
- Xác suất có điều kiện: Xác suất của một sự kiện xảy ra, biết rằng một sự kiện khác đã xảy ra.
- Xác suất độc lập: Xác suất của một sự kiện không bị ảnh hưởng bởi xảy ra (hoặc không xảy ra) của sự kiện khác.

Xác suất có ứng dụng rộng rãi trong nhiều lĩnh vực như thống kê, kinh tế, y học, khoa học máy tính và quản lý rủi ro. Nó giúp chúng ta đưa ra dự đoán và đánh giá xác thực cho các kết quả tiềm năng và quyết định.
Cụ thể hơn, để hiểu xác suất, chúng ta cần nắm vững các khái niệm và phương pháp liên quan, bao gồm:

1. Không gian mẫu (sample space): Đây là tập hợp tất cả các kết quả có thể xảy ra trong một thử nghiệm. Ví dụ: khi tung một đồng xu, không gian mẫu sẽ gồm hai kết quả: mặt ngửa hoặc mặt sấp.

2. Sự kiện (event): Một sự kiện là một tập hợp các kết quả trong không gian mẫu. Ví dụ: sự kiện "xuất hiện mặt sấp" trong trường hợp tung đồng xu sẽ là một sự kiện con trong không gian mẫu.

3. Xác suất đồng nhất (equally likely): Khi tất cả các kết quả trong không gian mẫu có cùng khả năng xảy ra, xác suất đồng nhất cho mỗi kết quả là 1/N, trong đó N là tổng số kết quả trong không gian mẫu.

4. Phép cộng xác suất (addition rule): Xác suất của một sự kiện A hoặc B xảy ra (ký hiệu là P(A U B)) được tính bằng tổng của xác suất của A và B trừ đi xác suất của A và B cùng xảy ra (P(A ∩ B)) nếu có. Công thức là: P(A U B) = P(A) + P(B) - P(A ∩ B).

5. Xác suất độc lập (independence): Hai sự kiện A và B là độc lập khi xác suất của A không bị ảnh hưởng bởi sự xảy ra hay không xảy ra của B, và ngược lại. Công thức: P(A ∩ B) = P(A) * P(B).

6. Xác suất có điều kiện (conditional probability): Xác suất của một sự kiện A xảy ra nếu biết rằng một sự kiện khác B đã xảy ra được tính bằng xác suất của A và B cùng xảy ra chia cho xác suất của B. Công thức: P(A|B) = P(A ∩ B) / P(B).

7. Luật nhân xác suất (multiplication rule): Xác suất của hai sự kiện A và B cùng xảy ra được tính bằng tích của xác suất của A và xác suất của B nếu A và B độc lập. Công thức: P(A ∩ B) = P(A) * P(B).

Các công thức và phương pháp trên là một phần trong lý thuyết xác suất. Chúng được sử dụng để tính toán và đánh giá xác suất của các sự kiện trong nhiều tình huống khác nhau, từ phân tích dữ liệu thống kê cho đến mô hình hóa và dự báo trong khoa học, công nghệ và nhiều lĩnh vực khác.

Danh sách công bố khoa học về chủ đề "xác suất":

MRBAYES: Xác suất Bayes Suy luận cây tiến hóa Dịch bởi AI
Bioinformatics - Tập 17 Số 8 - Trang 754-755 - 2001
Tóm tắt

Tóm tắt: Chương trình MRBAYES thực hiện suy luận Bayes của phả hệ bằng cách sử dụng một biến thể của thuật toán Monte Carlo chuỗi Markov.

Khả dụng: MRBAYES, bao gồm mã nguồn, tài liệu, các tệp dữ liệu mẫu và một tệp thực thi, có sẵn tại http://brahms.biology.rochester.edu/software.html.

Liên hệ: [email protected]

#Bayesian inference #phylogeny #Markov chain Monte Carlo #MRBAYES #software availability
Hướng Tới Thực Hành Tốt Nhất Khi Sử Dụng Cân Bằng Xác Suất Đối Sử (IPTW) Dựa Trên Điểm Khuynh Hướng Để Ước Lượng Hiệu Ứng Đối Sử Nhân Quả Trong Nghiên Cứu Quan Sát Dịch bởi AI
Statistics in Medicine - Tập 34 Số 28 - Trang 3661-3679 - 2015
Điểm khuynh hướng được định nghĩa là xác suất của đối tượng đối với việc chọn lựa điều trị, dựa trên các biến cơ bản được quan sát. Cân bằng đối tượng theo xác suất nghịch đảo của điều trị nhận được sẽ tạo ra một mẫu tổng hợp trong đó việc phân bổ điều trị độc lập với các biến cơ bản được đo lường. Cân bằng xác suất đối sử nghịch đảo (IPTW) dựa trên điểm khuynh hướng cho phép người ta thu được ước lượng không thiên vị của hiệu ứng điều trị trung bình. Tuy nhiên, các ước lượng này chỉ có giá trị nếu không có sự khác biệt có hệ thống còn sót lại trong các đặc điểm cơ bản đã quan sát giữa các đối tượng được điều trị và đối chứng trong mẫu được cân bằng bởi xác suất nghịch đảo điều trị ước tính. Chúng tôi báo cáo về một đánh giá hệ thống tài liệu, trong đó chúng tôi đã phát hiện rằng việc sử dụng IPTW đã gia tăng nhanh chóng trong những năm gần đây, nhưng trong năm gần nhất, phần lớn nghiên cứu không kiểm tra chính thức liệu rằng việc cân bằng đã cân bằng các biến số giữa các nhóm điều trị hay không. Sau đó, chúng tôi tiến hành mô tả một tập hợp các phương pháp định lượng và định tính cho phép người ta đánh giá liệu các biến cơ bản được đo lường có được cân bằng giữa các nhóm điều trị trong mẫu đã cân bằng hay không. Các phương pháp định lượng sử dụng sự khác biệt tiêu chuẩn hóa có trọng số để so sánh tiêu chuẩn, tỷ lệ ưu tiên, các khoảnh khắc bậc cao hơn, và các sự tương tác. Các phương pháp định tính sử dụng các phương pháp đồ hoạ để so sánh phân phối của các biến cơ bản liên tục giữa các đối tượng điều trị và đối chứng trong mẫu đã cân bằng. Cuối cùng, chúng tôi minh họa việc áp dụng các phương pháp này trong một nghiên cứu trường hợp thực nghiệm. Chúng tôi đề xuất một bộ chuẩn đo lường cân bằng chính thức góp phần vào khái niệm 'thực hành tốt nhất' đang phát triển khi sử dụng IPTW để ước lượng hiệu ứng điều trị nhân quả bằng dữ liệu quan sát. © 2015 Các Tác Giả. Statistics in Medicine Được xuất bản bởi John Wiley & Sons Ltd.
#điểm khuynh hướng #cân bằng xác suất đối sử nghịch đảo #hiệu ứng điều trị trung bình #kiểm tra cân bằng #nghiên cứu quan sát
Phân tích tổng hợp xác suất hoạt động dựa trên tọa độ của dữ liệu hình ảnh thần kinh: Một phương pháp hiệu ứng ngẫu nhiên dựa trên ước tính thực nghiệm về sự không chắc chắn không gian Dịch bởi AI
Human Brain Mapping - Tập 30 Số 9 - Trang 2907-2926 - 2009
Tóm tắt

Một kỹ thuật được sử dụng rộng rãi cho các phân tích tổng hợp dựa trên tọa độ của dữ liệu hình ảnh thần kinh là ước lượng xác suất hoạt động (ALE). ALE đánh giá sự chồng chéo giữa các điểm tập trung dựa trên việc mô hình hóa chúng như các phân phối xác suất được trung tâm tại các tọa độ tương ứng. Trong nghiên cứu Dự án Não Người/Thần kinh học thông tin này, các tác giả trình bày một thuật toán ALE đã được sửa đổi nhằm giải quyết các nhược điểm liên quan đến các bản triển khai trước đó. Thay đổi đầu tiên liên quan đến kích thước của các phân phối xác suất, trước đây phải được người dùng xác định. Để cung cấp một giải pháp có nguyên tắc hơn, các tác giả đã phân tích dữ liệu fMRI của 21 chủ thể, được chuẩn hóa vào không gian MNI bằng chín phương pháp khác nhau. Phân tích này cung cấp các ước tính định lượng về sự biến đổi giữa các chủ thể và giữa các mẫu cho 16 vùng có chức năng được xác định, sau đó được sử dụng để mô hình hóa rõ ràng sự không chắc chắn không gian liên quan đến mỗi tọa độ được báo cáo. Thứ hai, thay vì kiểm tra sự cụm trên mức ngẫu nhiên giữa các điểm tập trung, thuật toán sửa đổi đánh giá sự cụm trên mức ngẫu nhiên giữa các thí nghiệm. Mối quan hệ không gian giữa các điểm tập trung trong một thí nghiệm nhất định giờ đây được giả định là cố định và kết quả ALE được đánh giá so với một phân phối null của sự liên kết không gian ngẫu nhiên giữa các thí nghiệm. Quan trọng là, sự sửa đổi này dẫn đến một sự thay đổi từ suy luận hiệu ứng cố định sang suy luận hiệu ứng ngẫu nhiên trong phân tích ALE, cho phép tổng quát hóa kết quả cho toàn bộ dân số các nghiên cứu đã được phân tích. Qua phân tích so sánh dữ liệu thực và mô phỏng, các tác giả đã chỉ ra rằng thuật toán ALE đã được sửa đổi giải quyết các vấn đề khái niệm của các phân tích tổng hợp trước đó và tăng cường tính đặc hiệu của các kết quả sau đó mà không làm mất đi độ nhạy của phương pháp ban đầu. Do đó, nó có thể cung cấp một công cụ được cải tiến về phương pháp cho các phân tích tổng hợp dựa trên tọa độ trên dữ liệu hình ảnh chức năng. Hum Brain Mapp 2009. © 2009 Wiley‐Liss, Inc.

Những Kỳ Dị Khối Lượng của Biên Độ Feynman Dịch bởi AI
Journal of Mathematical Physics - Tập 3 Số 4 - Trang 650-677 - 1962

Các biên độ Feynman, được xem như hàm số của khối lượng, thể hiện nhiều kỳ dị khi cho phép khối lượng của các đường nội và ngoại giảm xuống không. Trong bài viết này, các đặc tính của những kỳ dị khối lượng này, được định nghĩa là các nghiệm bất thường của điều kiện Landau, được nghiên cứu chi tiết. Một phương pháp chung được phát triển, cho phép chúng ta xác định mức độ phân kỳ của các biên độ Feynman chưa được chỉnh lý tại những kỳ dị như vậy. Nó cũng được áp dụng để xác định sự phụ thuộc vào khối lượng của xác suất chuyển trạng thái tổng thể. Qua đó, người ta nhận thấy rằng, mặc dù các xác suất chuyển trạng thái từng phần có thể có phân kỳ liên quan đến việc khối lượng của các hạt ở trạng thái cuối cùng biến mất, chúng luôn triệt tiêu lẫn nhau trong quá trình tính toán tổng xác suất. Tuy nhiên, sự triệt tiêu này bị phá vỡ một phần nếu quá trình điều chỉnh điện tích được thực hiện theo cách thông thường. Điều này liên quan đến thực tế là các hạt tương tác mất đi tính đồng nhất khi khối lượng của chúng bằng không. Một mô tả mới của trạng thái và một cách tiếp cận mới cho vấn đề điều chỉnh có vẻ như cần thiết cho một cách xử lý nhất quán của giới hạn này.

#Biên độ Feynman #Kỳ dị khối lượng #Điều kiện Landau #Phân kỳ #Xác suất chuyển trạng thái #Điều chỉnh điện tích #Phương pháp chỉnh lý.
Dự đoán xác suất đã hiệu chỉnh sử dụng thống kê đầu ra mô hình tổ hợp và ước lượng CRPS tối thiểu Dịch bởi AI
Monthly Weather Review - Tập 133 Số 5 - Trang 1098-1118 - 2005
Tóm tắt

Các hệ thống dự đoán tổ hợp thường cho thấy mối tương quan giữa độ lan tỏa và sai số dương, nhưng chúng chịu tác động của độ thiên về dự báo và sai số phân tán, do đó không được hiệu chỉnh. Công trình này đề xuất việc sử dụng thống kê đầu ra mô hình tổ hợp (EMOS), một kỹ thuật xử lý sau dễ triển khai nhằm giải quyết cả độ thiên lệch và hiện tượng phân tán dưới, đồng thời xem xét mối quan hệ giữa độ lan tỏa và kỹ năng dự đoán. Kỹ thuật này dựa trên hồi quy tuyến tính nhiều biến và tương tự như phương pháp siêu tổ hợp, đã được sử dụng truyền thống cho các dự báo kiểu xác định. Kỹ thuật EMOS tạo ra các dự báo xác suất dưới dạng các hàm mật độ xác suất dự đoán Gaussian (PDF) cho các biến thời tiết liên tục và có thể được áp dụng cho đầu ra mô hình theo lưới. Giá trị trung bình dự đoán của EMOS là một trung bình có trọng số đã được hiệu chỉnh độ thiên lệch của các dự báo thành viên trong tổ hợp, với các hệ số có thể được diễn giải theo các đóng góp tương đối của các mô hình thành viên vào tổ hợp, và cung cấp một dự đoán kiểu xác định cạnh tranh cao. Phương sai dự đoán của EMOS là một hàm tuyến tính của phương sai tổ hợp. Để điều chỉnh các hệ số EMOS, phương pháp ước lượng điểm số xác suất có thứ hạng liên tục tối thiểu (CRPS) được giới thiệu. Kỹ thuật này tìm các giá trị hệ số tối ưu hóa CRPS cho dữ liệu huấn luyện. Kỹ thuật EMOS đã được áp dụng cho các dự báo áp suất khí quyển và nhiệt độ bề mặt trong 48 giờ tại Bắc Mỹ Thái Bình Dương vào mùa xuân năm 2000, sử dụng tập hợp mesoscale của Đại học Washington. Khi so với tổ hợp đã được hiệu chỉnh độ thiên lệch, các dự báo kiểu xác định EMOS về áp suất khí quyển có sai số bình phương trung bình thấp hơn 9% và sai số tuyệt đối trung bình thấp hơn 7%. Các PDF dự đoán từ EMOS rất sắc nét và được hiệu chỉnh tốt hơn nhiều so với tổ hợp nguyên thủy hoặc tổ hợp đã hiệu chỉnh độ thiên lệch.

Một khuôn khổ cho chỉ số xác suất kết nối dựa trên dòng chảy (PICo) thông qua việc giải thích cấu trúc của các phép đo khuếch tán MRI Dịch bởi AI
Journal of Magnetic Resonance Imaging - Tập 18 Số 2 - Trang 242-254 - 2003
Tóm tắtMục đích:

Thiết lập một phương pháp tổng quát để định lượng các phương pháp theo dõi sợi dựa trên dòng chảy về xác suất kết nối giữa các điểm và/hoặc các vùng.

Nguyên liệu và Phương pháp:

Phương pháp dòng chảy thường được sử dụng được điều chỉnh để tận dụng sự không chắc chắn trong định hướng của phương hướng khuếch tán chính được xác định cho mỗi voxel ảnh. Việc chạy quy trình dòng chảy lặp lại sử dụng các phương pháp Monte Carlo để khai thác sự không chắc chắn vốn có này tạo ra các bản đồ xác suất kết nối. Sự không chắc chắn được định nghĩa bằng cách diễn giải hình dạng của hồ sơ định hướng khuếch tán do tensor khuếch tán cung cấp theo cấu trúc vi mô cơ bản.

Kết quả:

Hai ứng cử viên để mô tả sự không chắc chắn trong tensor khuếch tán được đề xuất và các bản đồ xác suất kết nối với các điểm xuất phát hoặc các vùng đã chọn được tạo ra trong một số lộ trình chính.

Kết luận:

Các phương pháp được trình bày cung cấp một khung tổng quát cho việc sử dụng các phương pháp dòng chảy để tạo ra các bản đồ xác suất kết nối. J. Magn. Reson. Imaging 2003;18:242–254. © 2003 Wiley‐Liss, Inc.

Xấp xỉ xác suất cho các tập dữ liệu không gian lớn Dịch bởi AI
Journal of the Royal Statistical Society. Series B: Statistical Methodology - Tập 66 Số 2 - Trang 275-296 - 2004
Tóm tắt

Các phương pháp xác suất thường khó sử dụng với các tập dữ liệu không gian lớn, có vị trí không đều, do gánh nặng tính toán. Ngay cả với các mô hình Gauss, việc tính toán chính xác xác suất cho n quan sát yêu cầu O(n3) phép toán. Vì bất kỳ mật độ chung nào cũng có thể được viết dưới dạng tích của các mật độ điều kiện dựa trên một số thứ tự của các quan sát, một cách để giảm thiểu tính toán là chỉ điều kiện dựa trên một số lượng quan sát 'quá khứ' khi tính toán các mật độ điều kiện. Chúng tôi cho thấy cách mà phương pháp này có thể được điều chỉnh để xấp xỉ xác suất hạn chế và chúng tôi chứng minh cách một phương pháp phương trình ước lượng cho phép chúng tôi đánh giá hiệu quả của việc xấp xỉ đó. Các công trình trước đây đã gợi ý rằng nên điều kiện lên những quan sát quá khứ gần nhất với quan sát mà chúng ta đang xấp xỉ mật độ điều kiện. Thông qua các ví dụ lý thuyết, số và thực tiễn, chúng tôi cho thấy rằng thường có thể có lợi đáng kể trong việc điều kiện dựa trên một số quan sát ở xa hơn.

Google Earth Engine, Dữ liệu vệ tinh truy cập mở, và Máy học hỗ trợ lập bản đồ xác suất đầm lầy trên diện rộng Dịch bởi AI
Remote Sensing - Tập 9 Số 12 - Trang 1315
Các tiến bộ hiện đại trong điện toán đám mây và các thuật toán máy học đang thay đổi cách sử dụng dữ liệu quan sát Trái Đất (EO) để giám sát môi trường, đặc biệt là trong thời kỳ dữ liệu vệ tinh truy cập mở và miễn phí đang trở nên phổ biến. Việc phân định đầm lầy là một ứng dụng đặc biệt có giá trị của xu hướng nghiên cứu nổi lên này, vì đầm lầy là một thành phần quan trọng về sinh thái nhưng lại thường bị thiếu đại diện trong các chương trình lập bản đồ và giám sát hiện đại, đặc biệt ở cấp độ khu vực và quốc gia. Lợi dụng Google Earth Engine và phần mềm thống kê R, chúng tôi đã phát triển một quy trình công việc để dự đoán khả năng xuất hiện đầm lầy sử dụng mô hình máy học cây hồi quy tăng cường được áp dụng cho dữ liệu địa hình số và EO. Nghiên cứu tại khu vực 13.700 km2 ở Bắc Alberta, mô hình tốt nhất của chúng tôi đã cho ra kết quả xuất sắc, với giá trị AUC (diện tích dưới đường cong đặc tính hoạt động của máy thu) là 0.898 và giá trị sự biến thiên giải thích là 0.708. Kết quả của chúng tôi chứng tỏ vai trò trung tâm của các biến địa hình chất lượng cao trong việc mô hình hóa phân bố đầm lầy ở quy mô khu vực. Việc bao gồm các biến quang học và/hoặc radar vào quy trình đã cải thiện đáng kể hiệu suất của mô hình, mặc dù dữ liệu quang học hoạt động tốt hơn một chút. Việc chuyển đổi mô hình khả năng xuất hiện đầm lầy của chúng tôi thành phân loại nhị phân Wet-Dry cho độ chính xác tổng thể 85%, gần như giống với giá trị thu được từ giải pháp Tổng hợp Đầm lầy Alberta (AMWI): bản kiểm kê đương đại được Chính phủ Alberta sử dụng. Tuy nhiên, quy trình công việc của chúng tôi chứa đựng một số lợi thế chính so với quy trình được sử dụng để sản xuất AMWI, và cung cấp một nền tảng có thể mở rộng cho các sáng kiến giám sát toàn tỉnh.
#Điện toán đám mây #Máy học #Dữ liệu quan sát Trái Đất #Phân định đầm lầy #Google Earth Engine #Hồi quy tăng cường #Alberta #Vệ tinh truy cập mở #Mô hình hóa đầm lầy #Biến địa hình #Dữ liệu quang học #Dữ liệu radar
Xác thực tương đối của bảng hỏi tần suất thực phẩm cho giám sát sức khỏe và dinh dưỡng quốc gia Dịch bởi AI
Nutrition Journal - - 2010
Tóm tắt Đặt vấn đề

Việc xác thực bảng hỏi tần suất thực phẩm (FFQ) là rất quan trọng vì thông tin không chính xác có thể dẫn đến các mối liên hệ thiên lệch. Do đó, độ xác thực tương đối của một FFQ được phát triển để sử dụng trong Khảo sát Kiểm tra Sức khỏe của Người trưởng thành Đức năm 2008-2011 (DEGS) đã được kiểm tra.

Phương pháp

Các so sánh chéo về dữ liệu tiêu thụ thực phẩm từ FFQ và từ hai lần hồi tưởng 24 giờ đã được thực hiện trên một mẫu gồm 161 người tham gia (từ 18 đến 80 tuổi) của một khảo sát quốc gia đang diễn ra, Giám sát Dinh dưỡng Quốc gia Đức (NEMONIT). Việc thu thập dữ liệu diễn ra từ tháng 11 năm 2008 đến tháng 4 năm 2009.

Kết quả

Các hệ số tương quan thứ hạng Spearman giữa FFQ và các hồi tưởng chế độ ăn uống 24 giờ dao động từ 0.15 cho pizza đến 0.80 cho trà, với hai phần ba các hệ số tương quan vượt quá 0.30. Tất cả các hệ số tương quan đều có ý nghĩa thống kê ngoại trừ các hệ số cho pizza và rau nấu chín. Tỷ lệ người tham gia được phân loại vào cùng hoặc kề quartile tiêu thụ được đánh giá bởi cả hai phương pháp thay đổi giữa 68% cho rau nấu chín và 94% cho cà phê. Không có sự khác biệt có ý nghĩa thống kê trong ước lượng tiêu thụ thực phẩm giữa hai phương pháp cho 38% các nhóm thực phẩm. Đối với các nhóm thực phẩm khác, ước lượng tiêu thụ thực phẩm của FFQ không thường cao hơn hoặc thấp hơn ước lượng từ các hồi tưởng chế độ ăn uống 24 giờ.

Kết luận

FFQ dường như có độ hợp lệ hợp lý trong việc đánh giá tiêu thụ thực phẩm của người trưởng thành Đức. Đối với một số nhóm thực phẩm, chẳng hạn như rau sống và rau nấu chín, ước lượng nguy cơ tương đối nên được diễn giải một cách thận trọng do sự đồng thuận thứ hạng kém.

Ước lượng xác suất tối đa không điều kiện cho các mô hình động tuyến tính và log-tuyến tính cho các bảng không gian Dịch bởi AI
Geographical Analysis - Tập 37 Số 1 - Trang 85-106 - 2005

Bài báo này trình bày việc ước lượng một mô hình dữ liệu bảng động với tác động cố định, mở rộng để bao gồm hoặc là tự tương quan lỗi không gian hoặc biến phụ thuộc lag không gian. Để khắc phục những bất thường liên quan đến ước lượng bình phương nhỏ nhất truyền thống, các mô hình được lấy sai khác lần đầu để loại bỏ các tác động cố định và sau đó hàm khả năng không điều kiện được đưa ra với việc xem xét hàm mật độ của các quan sát sai khác lần đầu trên mỗi đơn vị không gian. Khi các biến ngoại sinh bị bỏ qua, hàm khả năng chính xác được chứng minh tồn tại. Khi bao gồm các biến ngoại sinh, các giá trị trước mẫu của các biến này và do đó hàm khả năng phải được xấp xỉ. Hai trường hợp chính được xem xét: xấp xỉ của Bhargava và Sargan và xấp xỉ của Nerlove và Balestra. Như một ứng dụng, một mô hình cầu động cho thuốc lá được ước lượng dựa trên dữ liệu bảng từ 46 tiểu bang của Hoa Kỳ trong giai đoạn từ 1963 đến 1992.

Tổng số: 513   
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 10